你身边的“人工智能”,可能是真人在装“智能”
在担心人工智能毁灭人类之前,你得确定它不是人。
一场人工智能噱头下的骗局?
近期,《华尔街日报》曝光了一件令人哭笑不得的新闻,印度一家AI编程公司Engineer.ai被曝光背后并不是AI在运作,而是彻彻底底的人工编程。
根据《华尔街日报》的说法,他们的骗局其实没什么了不起。这家由两位印度人创立的公司,宣称他们可以利用AI辅助应用程序的开发,这样开发者可以不用自己学习编程,且为很多公司省去不少雇佣工程师或是外包的成本。
两倍的制作速度,1/3的成本,他们就可以为他人提供开发好的APP和网站。这听上去似乎很方便,就和他们网页首页的标语一样,“让制作软件像订购披萨一样简单”。单看他们网页上的定制服务,你确实会产生这样的感觉。
拿制作APP举例,Engineer.ai的网页会给你提供几种市面上常见的APP模式,例如微信、Airbnb、Uber(优步)等等。在你选择类型之后,他们会提供给你很多功能需求,而你则需要按照需求来进行功能的挑选。
这些功能在供你选择的同时也是明码标价的。在你选择完成后,点击NEXT,网页将会跳转到下单页面。在这里,你将会看到你所定制的程序开发完成时间,以及价格。
Engineer.ai所提供的服务,除了开发时间长了点外,看不出什么奇怪。其实稍作了解你就知道,他们所谓的AI技术并非人力不可替代,不过他们还是获得了投资人的青睐。
去年11月,Engineer.ai 对外宣布完成了2950万美元的A轮融资,是欧洲迄今规模最大的A轮投资之一,其投资方中就有阿里巴巴控股方Soft Bank的子公司。
看上去投资人们被骗了。这家公司的前雇员爆料称,在这个宣称使用AI辅助编程的公司里,几乎没有AI技术团队。
如果这是真的,那么Engineer.ai的真实运作模式,其实就是公司将客户的计划,交给印度以及其他成本较低地区的程序员来完成,相当于一个中介而已。
Engineer.ai 官网标语“Non-profits”(非盈利)
AI独自完成工作,首先需要技术支持,并且需要技术人员对其进行大量训练,这期间所耗费的财力和时间都不小,而Engineer.ai 可能非常“聪明”的省略了这个步骤。
原本只是一个介于客户和程序员之间的中介,披上了人工智能的外衣,就化身科技圈备受瞩目的明星,并且换取巨额投资。这看上去就是一场骗局。
这样的的情况并不少见。《华尔街日报》在揭露Engineer.ai的文章中提到,人工智能是当下的投资热潮,但是人工智能技术定义松散,再加上大量热钱流入,有人来“忽悠”投资方也就不足为奇。
8月17日,Engineer.ai的创始人就在官方网站上发文,反驳了《华尔街日报》的说法。文中称,《华尔街日报》有断章取义之嫌,他们从来没有欺骗用户和投资人。
他们在文章一再强调,他们是一家由人工智能来提供动力的公司,但并非一家出售人工智能的公司,声称他们只承诺会使用人工智能来开发软件,但从未说过让用户使用人工智能。而关于公开他们人工智能技术的要求,Engineer.ai的创始人表示他们身为一家正在申请专利的公司,不能泄露任何技术内容。
另外,Engineer.ai的创始人表示,经历了这场风波,他们的投资人对他们依然非常信任。
目前来看,Engineer.ai没有因为《华尔街日报》而诞曝光而退缩,他们似乎仍然在进行自己的业务。
既然Engineer.ai投资方对他们信任有加,那么钱的问题就不用操心了。但另一个问题引起了人们的关注,有多少人工智能,背后的真相其实是人为操作呢?
真假难辨的人工智能
前不久,微博上有网友曝光了一款模拟聊天APP,称该APP有监视使用者的嫌疑。这件事引起了人们的关注,并一度被送上热搜。
一些使用该软件的用户声称,自己的手机受到了聊天机器人的监视,还有人声称对方甚至可以通过手机摄像头监视自己的行为,之后甚至还搞出了视频出现鬼脸之类的惊悚传闻.......后来网络上曝光的类似事件五花八门,事情也越传越邪乎。
有不少网友去做了试验,但也没能证明这类“都市传说”到底是真是假。但是很多用户不约而同的产生了一点疑问:和我们聊天的真的是机器人吗?
国内很多手机软件自带机器人聊天功能,这些聊天机器人最大的特点就是说话好听,比男朋友/女朋友还贴心。缺点就是机械无趣,来来回回那么几句话,丝毫看不出Siri那种“毁灭人类”的潜质。
就在人们用各种奇奇怪怪的问题“挑逗”无果,即将对他们丧失兴趣的时候,有些聊天机器人又会出乎意料的“善解人意”,让人猝不及防。
图片来自微博网友 泠音喵
然后,对方很快又变回了机械样子,仿佛聊天机器人人性觉醒只是一瞬间的事。
这样的情况不在少数。现在许多具有机器人聊天功能的软件,多多少少都被怀疑有机器人与真人交叉工作的情况。
但是软件开发公司们声称自己使用了聊天机器人来和用户进行模拟聊天,没有人爆料,你几乎无从知晓和你聊天的到底是程序还是人。
早在2016年彭博社曾爆料过,国外几家所谓的AI聊天软件背后,其实是公司雇佣员工每天12小时假扮AI来和用户聊天。这些员工曾向媒体诉苦,很希望有AI能来替代这项枯燥无味的工作,而不是像现在这样,自己辛苦假扮AI。
这种类似的新闻在过去几年间频频出现,而被曝光的公司中还不乏国际知名互联网公司,例如Facebook。
阿里巴巴前CEO卫哲在接受采访时曾断言,如今国内市面上99%的人工智能都是伪人工智能。对于这一说法,卫哲解释道,在人工智能成为市场热点初期,全世界这方面的专家不过两三百人,怎么可能一夜之间就冒出那么多人工智能的公司呢?
市面上大量伪AI中,人为模仿并不是唯一的方式,但不得不说,这种存在确实巧妙。AI开发的目标是思维模式不断接近人类,如今本末倒置让人来扮演AI,想来确实点好笑。可或许就是这一点和人之间的联系,人为模仿AI才会存在的这么理所当然吧。
这些“人工智能”可能管理着你的隐私信息
这些伪AI的存在,带来了一个让人难以接受的威胁,那就是用户隐私安全。
2018年,《华尔街日报》曾报道,谷歌曾允许第三方应用程序开发者访问用户的邮箱,他们的AI工程师会浏览用户邮件,据说是为了改善“智能回复”功能。与此同时,你的邮件内容已经被曝光给了这些程序员。
很多由程序接管用户资料的部分,其实都存在着这样的隐患。去年3月,中国iOS用户就曾曝光过苹果系统个人隐私泄漏事件。该用户声称,一位苹果技术顾问借职位之便窃取了自己的iCloud账户信息,并且借此进行了敲诈勒索。尽管苹果一再声明技术顾问无法访问用户数据,但是iCloud用户与苹果公司之间已经埋下了不信任的种子。
苹果这样全球拥有上亿用户数据的大公司尚且如此,体量较小的公司更免不了被怀疑。AI的确更适合处理很多用户数据庞大的工作,但如果在AI噱头掩藏下进行人为操作,隐私泄露可能无从避免。
在AI的训练过程中,原本就存在着“黑箱AI”问题。所谓“黑箱AI”就是指,我们并不知道AI是如何利用数据来学习,以及如何导出数据的。对于真正的AI而言,这个问题原本可以不用深究。但是在伪AI这里,“黑箱”成为了伪AI公司的商业机密,让他们敢于人为接触用户隐私信息。
然而这些幕后的真相,用户很难知晓。
我们见惯了新闻里能打赢围棋大师的AI,打赢DOTA2职业选手的AI,科幻电影中背叛人类的AI。可事实却是,AI的发展离“毁灭人类”和“背叛人类”还非常远,反倒是AI技术成为资本噱头,给予了伪AI存在的余地,甚至威胁到了我们的隐私安全。想来还有些讽刺。
所以,别急着担心你苹果手机里的Siri会企图毁灭你了,至少它是个真的人工智能。
网上冲浪记事
为互联网留下记忆
推荐阅读